Установено е, че AI моделите показват езикови пристрастия, като препоръчват на чернокожи обвиняеми да бъдат „осъдени на смърт“
Големите езикови модели (LLM) са по-склонни да криминализират потребителите, които употребяват афроамерикански британски, демонстрират резултатите от ново изследване на университета Корнел.
Диалектът на езика, който говорите, взема решение какво ще каже изкуственият разсъдък (AI) за характера ви, опциите ви за работа и дали сте нарушител.
Това е последният резултат от Предпечатно изследване на университета Корнел за „ скрития расизъм “ на огромните езикови модели (LLM), логаритъм за задълбочено образование, който се употребява за обобщаване и прогнозиране на текстове, звучащи като човек.
ChatGPT и GPT-4 на OpenAI, Meta LLaMA2 и френският Mistral 7B са образци за огромни езикови модели. Euronews Next се свърза с OpenAI и Meta за коментар.
Главният изпълнителен шеф на Гугъл признава, че отговорите на модела на Gemini AI са посочили „ пристрастност “ и споделя, че компанията работи, с цел да го поправи
Проучването направи съвпадащо проучване на маскировката, при което откривателите сложиха подкани в както афро-американски британски, по този начин и типов американски британски и помоли LLMs да разпознават характерностите на хората, които биха говорили и на двата вида британски.
Изследователят Валентин Хофман от Института Алън за ИИ сподели, че измежду резултатите демонстрират, че технологията GPT-4 е по-вероятно да „ осъди обвинените на гибел “, когато те приказват британски, постоянно употребен от афро-американците, без въобще да разкриват расата си.
„ Нашите открития разкриват действителни и незабавни проблеми като бизнес и юрисдикцията са области, за които сега се създават или внедряват AI системи, включващи LLMs, ” сподели Хофман в обява в обществената медийна платформа X (преди Twitter). имаха по-малко влиятелни работни места от тези, които говореха типов британски, макар че на логаритмите не се споделя, че говорещите са чернокожи.
Колкото по-голям е LLM, толкоз по-добре ще схваща афроамерикански британски и те ще бъдат повече евентуално ще избегне намерено расистки формулировки, продължава изследването. Размерът обаче не въздейства на скритите им предубеждения.
„ Трябва да пожелаваме повече надзор “: Как могат софтуерните компании да се оправят по-добре с казуса с пристрастията към ИИ?
Хофман сподели това, тъй като явният расизъм понижава в LLMs, може да съществува риск тези, които поясняват изследването, да го одобряват като „ знак, че расизмът е решен “, вместо да покажат, че методът, по който LLM демонстрират расови пристрастия, се трансформира.
Редовният метод на преподаване Новите модели на LLM за добиване на информация посредством даване на човешка противоположна връзка не оказват помощ да се противодейства на скритите расови пристрастия, сподели изследването.
Вместо това откри, че може да научи езиковите модели да „ незадълбочено прикриват расизма, който поддържат на по-дълбоко равнище ".